Con l’espansione dell’uso dell’intelligenza artificiale, chi si occupa di marketing farmaceutico negli Stati Uniti si trova oggi di fronte a un quadro normativo sempre più complesso. Alcune leggi statali – ad esempio in California, Colorado e Nord Carolina – stanno introducendo regole precise su trasparenza, bias algoritmico e ruolo dell’essere umano nel processo decisionale dell’IA.
i pazienti devono sapere quando interagiscono con un’Intelligenza Artificiale e avere la possibilità di scegliere di non farlo. Inoltre, non deve mai mancare la presenza umana in tutto il processo decisionale.
Le normative statali vietano che chatbot o assistenti digitali facciano credere all’utente di essere un medico o un operatore sanitario. Una legge californiana, in vigore dal mese di gennaio, richiede l’identificazione dell’AI con un disclaimer e istruzioni precise per contattare un professionista umano. Misure simili sono allo studio in altri Stati: una di queste è la proposta -avanzata in Nord Carolina – di licenze specifiche per i chatbot sanitari.
Un altro tema caldo è quello del bias algoritmico. L’AI, se addestrata su dati incompleti o distorti, può amplificare discriminazioni preesistenti, influenzando percorsi di cura o suggerendo farmaci in modo non equo. Una legge varata dallo Stato del Colorado richiede valutazioni annuali dei rischi e garantisce la possibilità di revisione umana per decisioni rilevanti prese dall’Intelligenza Artificiale. Le aziende, infine, sono chiamate ad aggiornare frequentemente le linee guida interne e a monitorare nuove normative anche extra-continentali, come l’EU AI Act.